Digital Garden
Search
CTRL + K
Digital Garden
Search
CTRL + K
Home
Index
Inbox
study
人工智能
机器学习
MIT21秋课程
1.1 课程介绍
1.2 数据获取
1.3 网页数据抓取
1.4 数据标注
2.1 数据分析
2.2 数据清洗
2.3 数据变换
2.4 特征工程
2.5 数据科学家的日常
3.1 机器学习介绍
3.2 决策树模型
3.3 线性模型
3.4 随机梯度下降
3.5 多层感知机
3.6 CNN
3.7 RNN
4.1 模型评估
4.2 过拟合和欠拟合
4.3 模型验证
5.1 方差和偏差
5.2 Bagging
5.3 Boosting
5.4 Stacking
9.1 模型调参
9.2 超参数优化
9.3 网络架构搜索
10.1 深度神经网络架构
11.1 CV中的微调
11.2 Nlp中的微调
深度学习
李沐学深度学习
04 数据操作 + 数据预处理
05 线性代数
06 矩阵计算
07 自动求导
09 Softmax 回归 + 损失函数 + 图片分类数据集
10 多层感知机 + 代码实现
11 模型选择 + 过拟合和欠拟合
12 权重衰退
13 丢弃法
14 数值稳定性 + 模型初始化和激活函数
15 实战:Kaggle房价预测 + 课程竞赛:加州2020年房价预测【动手学深度学习v2】
16 PyTorch 神经网络基础
17 使用和购买 GPU
18 预测房价竞赛总结
19 卷积层
20 卷积层里的填充和步幅
21 卷积层里的多输入多输出通道
22 池化
23 经典卷积神经网络 LeNet
54 循环神经网络 RNN
导航
技术笔记
Obsidian Copilot+LM studio本地RAG知识系统索引搭建
#deep_learning
#course
13 丢弃法
目的:对输入数据加入扰动的鲁棒,增加泛化能力
实现
主要作用于隐藏层的输出
注意:
dropout
只用在训练中,因为目的是改变模型权重;推理时不需要用到,因为模型权重已经确定了
总结
dropout的做法等价于让某些子神经网络的权重变成0,其实也是
正则化
处理的一种,相当于让模型权重减少到0
丢弃的概率p是超参数
References
13 丢弃法【动手学深度学习v2】_哔哩哔哩_bilibili